看了這麼多篇生成式 AI 相關應用,不論是文字生成、圖片生成或是影音生成,在這些應用,我想未來一定會有個疑慮,那就是怎麼相信眼前看到或聽到的內容是真的,還是虛構的。連帶也會影響企業使用生成式 AI 如何取信使用者,因此好奇有哪些方向可以幫助大眾了解跟信任企業提供的生成式 AI 服務。當然也不乏看到有提出認證服務的文章,我想在不久的將來,也會有相關的 Certificate Authority (CA) 出現。
根據 Forrester 的報告,有 52% 的消費者認為 AI 對社會構成了嚴重威脅,而只有不到三成的消費者信任企業使用 AI。這顯示出在科技與消費者之間,仍然存在顯著的信任差距。因此如何建立對生成式 AI 的信任,是當前企業很重要的課題之一。
Vincent Koc 提出的「7 Levels of Trust」概念,為企業提供了一個清晰的框架,幫助品牌逐步建立並加強消費者對生成式 AI 的信任。這些層次從基礎的透明度到對消費者的承諾,提供了循序漸進的策略來提升消費者對 AI 系統的接受度。
透明度 (Transparency)
說明 AI 系統的運作方式:消費者希望知道 AI 系統如何工作,這包括 AI 使用的資料、決策過程以及如何影響他們的體驗。企業會需要提供給每個使用者清晰的說明和資訊,讓消費者能夠了解系統的運作原理,減少對技術的疑慮。
一致性 (Consistency)
保持系統行為的一致性:當消費者發現 AI 系統的反應或行為前後不一致時,他們對技術的信任度會迅速下降。企業應該保證生成式 AI 系統在各個應用場景中的行為一致,從而增強消費者的信心。
可預測 (Predictability)
讓消費者預測 AI 的行為:當 AI 系統能夠做出可預測的行為,消費者會感到更加舒適與放心。這意味著,AI 的輸出應該符合消費者的期望,而不是出現不合邏輯或不可解釋的結果。
可控性 (Control)
提供給消費者對 AI 系統的控制權:讓使用者感受到他們能夠干預 AI 系統,並對系統的輸出進行調整。這不僅可以減少消費者對技術的恐懼,還能讓他們更積極地參與互動,感受到自己的決策對結果的影響。
可審核 (Auditability)
提供審查機制:企業應該允許消費者檢查和審核 AI 的決策過程,尤其是涉及財務、健康等敏感領域的應用。讓消費者能夠檢查 AI 的輸出是否合乎規範,進一步強化信任。
同理心 (Empathy)
展現對需求的關懷:AI 系統應該具備一定的情感,能夠理解並回應消費者的需求與情感狀態。這有助於增加使用者對品牌的情感聯繫,使他們感受到 AI 不僅僅是冷冰冰的機器,還能為他們提供貼心的服務。
承諾與責任 (Commitment and Accountability)
承諾並對服務負責:品牌應對其 AI 系統的影響負責,並在出現問題時主動承擔責任。這意味著當 AI 系統出現錯誤或產生不正確的結果時,企業應主動修正並保證未來不會再犯同樣的錯誤。這種責任感有助於鞏固消費者的信賴。
除了「信任的七個層次」之外,企業還應考慮其他重要策略,以進一步提升品牌與消費者之間的信任。
資料隱私與安全性
資料隱私是生成式 AI 時代的首要議題。企業需要確保其 AI 系統符合資料隱私保護法規,如 GDPR,並強化資料管理,讓消費者能夠放心地使用 AI 驅動的服務。
強調對技術的負責
AI 技術的發展應該基於道德標準和社會責任。企業應確保生成式 AI 系統的開發和應用遵循公平、包容性和透明的原則,避免偏見和歧視。
個人化體驗與一致性
透過生成式 AI,企業可以為每個使用者提供個人化的體驗,但必須確保這些體驗的一致性和準確性,避免使用者感到困惑或受騙。